Digitalisierung
20.11.2025
Zwischen Misstrauen und Akzeptanz
©
Wissensvermittlung & Verminderung von Ängsten vor KI im Gesundheitswesen
Künstliche Intelligenz ist im Gesundheitswesen längst präsent: Sie analysiert Bilddaten, unterstützt Diagnosen, priorisiert Befunde und übernimmt Verwaltungstätigkeiten. Dennoch spaltet sie. Begeisterung über Tempo und Präzision steht neben Skepsis, ob sich Entscheidungen noch nachvollziehen lassen und wer am Ende die Verantwortung trägt. Gerade in der Medizin entscheidet Vertrauen, ob Innovation wirkt.
Wie ambivalent die Wahrnehmung ist, zeigt eine nationale Befragung von Radiologie-Residents: 83 % erwarten, dass KI ihre Arbeit verbessert; 44 % fürchten zugleich, dass ihre Rolle geschmälert oder ersetzt werden könnte (Gong et al., 2023). Vertrauen und Misstrauen existieren parallel. Nicht die Technik allein ist ausschlaggebend, sondern wie sie erlebt, erklärt und eingebettet wird.
KI beschleunigt Prozesse
Die Potenziale sind greifbar. In Heidelberg wurden MRT-Aufnahmen mithilfe lernender Rekonstruktionsverfahren in Sekunden statt Minuten erzeugt – ohne diagnostischen Qualitätsverlust. Klinische Entscheidungsunterstützungssysteme verdichten heterogene Daten (Labor, Bildgebung, Anamnese) zu Handlungsvorschlägen, die ärztlich geprüft werden. Chatbots und teilautomatisierte Workflows übernehmen Terminvergabe, Codierung oder Triage. Das Ziel ist nicht Verdrängung, sondern Entlastung: mehr Zeit für die Beziehung zu Patienten.
Das Innovationsdilemma
Warum stößt Fortschritt dennoch auf Widerstand? Das Innovationsdilemma beschreibt, dass Organisationen an disruptiven Technologien scheitern, weil sie an erfolgreichen Routinen festhalten. Frisch entwickelte Systeme wirken unvollständig oder störanfällig und werden verworfen, bevor sie ihr Potenzial entfalten (Christensen, 1997).
In der Medizin gilt: Was nicht sofort reibungslos funktioniert, gilt schnell als unbrauchbar. Eine Sicht, die Lernkurven und Nutzen Entwicklung unterschätzt. Hinzu kommt Psychologie. Akzeptanz steigt, wenn Menschen Kontrolle behalten: Wer Empfehlungen überstimmt, Parameter prüfen und Unsicherheiten erkennen kann, vertraut eher. Fehlt eine Override-Option, wächst Misstrauen, selbst bei objektiv besseren Ergebnissen.
Fachpositionen fordern daher klare Regeln zu Verantwortlichkeit, Nachvollziehbarkeit und Datenqualität als Bedingungen für den Einsatz (European Society of Radiology, 2025). Gleichzeitig zeigt die Praxisperspektive: KI kann spürbar entlasten, erzeugt aber Unsicherheit und ethische Belastung, wenn Entscheidungen intransparent bleiben oder sich Zuständigkeiten verwischen (Bertelsmann Stiftung, 2025). Zusätzlich bremsen Pfadabhängigkeiten und Risikoaversion Innovationen im System (Bertelsmann Stiftung, 2023).
Gestaltung und Wissensvermittlung
Zwei Stellhebel adressieren diese Spannungen: Gestaltung und Wissensvermittlung. Erstens braucht es erklärbare Systeme. „Explainable AI“ (XAI) macht Ergebnisse, Wahrscheinlichkeiten, Entscheidungswege und Grenzen sichtbar. Eine systematische Übersichtsarbeit in npj Digital Medicine zeigt, dass erklärbare, menschenzentrierte Gestaltung Vertrauen messbar erhöht, Fehlinterpretationen reduziert und die klinische Integration erleichtert (Chen et al., 2022).
In der Bildgebung helfen z.B. Heatmaps, jene Regionen zu markieren, die eine Entscheidung beeinflussen. Ein einfacher, aber wirksamer Vertrauensanker, sofern er fachlich korrekt kalibriert und didaktisch sauber eingebettet ist. Zweitens braucht es Vermittlung, die nicht überfordert: keine Algorithmen-Vorlesung, sondern klare Antworten auf drei Fragen: Wozu dient das System? Wie verlässlich ist es in dieser Indikation? Welche Handlungsspielräume bleiben beim Menschen?
Wirksam sind kurze Erklärvideos, simulationsbasierte Trainings und klinikinterne Dialogformate, in denen reale Fälle mit und ohne KI durchgespielt werden. Ärzte, Pflegekräfte und weitere Multiplikatoren sind Schlüsselakteure – sie übersetzen Technik in Alltag, adressieren Sorgen und geben Rückmeldung an Entwickler (Gong et al., 2023; Bertelsmann Stiftung, 2025).
Regulierung schafft den Rahmen
Der EU AI Act verlangt für Hochrisiko-Anwendungen wie Medizin u.a. Risikomanagement, Daten- und Modellqualität, Transparenz (inkl. Nutzerinformationen) sowie menschliche Aufsicht. Dokumentierte Prozesse und Post-Market-Monitoring werden verbindlich (European Union, 2024). Rechtliche Sicherheit und technische Gestaltung greifen so ineinander: Was erklärbar ist, lässt sich auditieren und was auditierbar ist, wird eher akzeptiert.
Dass Akzeptanz machbar ist, zeigen Praxiserfahrungen: Am Moorfields Eye Hospital diagnostizierte eine KI Netzhauterkrankungen mit FacharztPräzision. Entscheidend war nicht nur die Modellleistung, sondern die enge Einbindung der Ärzte in Entwicklung und Workflow-Design (De Fauw et al., 2018). Technik allein genügt nicht. Es zählt, ob Menschen beteiligt, ge - schult und befähigt werden, Systeme verantwortlich einzusetzen.
Fazit
Vertrauen ist kein Zufall. Es entsteht, wenn Systeme verständlich sind, wenn Akteure Verantwortung behalten und wenn Wissensvermittlung einlädt, statt belehrt. Zwischen Misstrauen und Akzeptanz liegt nicht die Technik, sondern unser Umgang mit ihr. KI kann das Gesundheitswesen entlasten und qualitativ stärken, wenn wir sie als Werkzeug in einer menschenzentrierten Praxis gestalten.
Autor
Yvo Makiolczyk arbeitet als Assistent der Geschäftsführung in einem Fitness-Studio und berät daneben selbstständig zu Digitalisierung, Training und Innovation im Sport- und Gesundheitsbereich.
‹ Zurück
Marketing & Management
19.05.2025
Was ältere Trainer den Jüngeren voraushaben
17.06.2024
Wertschätzung, Flexibilität & Atmosphäre – die Schlüssel zur Mitarbeiterbindung?
16.02.2024
Erfolgreiche Neukundengewinnung
Das Arthrose Projekt von myline
23.01.2024
Hilfe bei der Unternehmensverwaltung
Launch-Termin für das UnternehmensNavi





